Also wir haben uns jetzt vor der Pause das Okhamische Denken angeguckt.
Und das bestand eben darin, dass die wahre Lösung durch eine, dass das wahre Modell durch ein
Most-Posimonious-Modell ersetzt wird, was hoffentlich auch gut ist. Und die Alternative zu
diesem Gedankengang stammt wieder von einem englischen Mönch, nämlich von Thomas Bays.
Und dieses bissianische Denken, das kann man ganz gut erstmal zusammenfassen in einer Darstellung
über bissianisches Modeling und bissianisches Forecasting. Also das ist erstmal, obwohl da
formal hingeschrieben ist ein abstrakter Gedankengang. Also wenn wir die Joint-Distribution
zwischen Modellen und Daten anschauen, dann kann man das in zwei Richtungen ausdehnen. Man kann sagen,
die Joint Probability hier, die Joint Probability zwischen Modellen und Daten kann ich einmal
schreiben als die bedingte Wahrscheinlichkeit zwischen Daten und Modellen, multipliziert mit der Wahrscheinlichkeit
vom Modell und umgekehrt die Probabilitie vom Modell, gegeben die Daten, mal der Probabilitie von den
Daten. Also das ist einfach Joint Probability ersetzt durch bedingte Wahrscheinlichkeit. Und das kann ich
in zwei Richtungen machen. Da kommt halt diese Gleichungskette raus. Dann nehme ich das linke und
das rechte und schreibe das so rum hin. Und das beschreibt das Denken von bissianischen Modeling.
Das sagt nämlich, die Wahrscheinlichkeit, dass ein Modell richtig ist, gegeben Daten, ist gleich,
die Wahrscheinlichkeit oder so ich sollte die Wörter verwenden, die hier oben drüber stehen, also die
posterior Verteilung für die Menge aller sinnvollen Modelle gegeben, die Daten, ist gleich die
Wahrscheinlichkeit für die Daten, dass diese Daten von dem Modell erzeugt worden sind, mal der a priori
Wahrscheinlichkeit von den Modellen, geteilt durch die Wahrscheinlichkeit, dass die Daten das Problem
richtig beschreiben. Und diese Formel hier nämlich zu sagen, aha, es gibt irgendwie eine
Wahrscheinlichkeit für den Modelltyp vorher, bevor ich die Daten gesehen habe und es gibt eine
Wahrscheinlichkeit für die Modelle, nachdem ich die Daten gesehen habe und die Provinzialitätskonstante,
oder was heißt Konstante, der Provinzialitätsfaktor hier, ist eben, wie gut die Modelle die gemessenen
Daten erklären können. Und wenn ich das als bissianischen Modellbau sehe, dann würde
bissianisches Forecasting so gehen. Und der entscheidende Punkt kommt unten, also ganz egal,
ob man die Gedanken ginge zwischendurch jetzt im Detail verfolgt. Bissianisches Forecasting sagt,
abroximiere das wahre Modell bei einem Modell, was dadurch gewichtet ist von allen möglichen
Modellen. Also machen wir mal die Prognoseaufgabe. Prognoseaufgabe heißt, ich will die Daten der
Zukunft vorhersagen, wir geben die Daten der Vergangenheit. Und wenn ich das wahre Modell
kennen würde, dann könnte ich die Daten der Zukunft berechnen gegeben, dass ich das wahre Modell kenne.
Also das hier ist eine rein theoretische Annahme. Ich kenne das wahre Modell aber nicht. Stattdessen
nehme ich also jetzt halt irgendwelche Modelle, die die Daten der Vergangenheit kennen, benutze
diese Modelle, um die Zukunft, um die Zukunft vorherzusagen und mache das über die Menge aller
möglichen Modelle. Also wenn es viele Modelle gibt, die mit den Daten der Vergangenheit kompatibel
sind, dann muss ich halt für jedes dieser Modelle dann ausrechnen, was die in Zukunft vorher sagen
würden. Und das nehme ich dann hier als Gewichtungsfaktor für die verschiedenen
möglichen Vorhersagen für die Zukunft. Das ist also so eine Art gewichtete Szenarioanalyse,
wenn Sie wollen. Sie machen hier viele mögliche Vorhersagen für die Zukunft und die Gewichtung.
Ob das eine gute Idee ist, liegt daran, ob diese entsprechenden Modelle in der sich eine Vergangenheit
bewährt hätten. Darüber mache ich halt eine Mittelwertbildung. Ja gut, jetzt nehmen wir dann
das Model hier, Model gegeben Daten, also Model gegeben Daten hier. Das heißt, also diesen Teil
hier ersetze ich jetzt, diesen Relevanzparameter hier ersetze ich jetzt durch den bösianischen
Modellbau und dann kriegen Sie, dass das, also diese Verhältniskonstanten hier, die Wahrscheinlichkeit
für die Daten und die Wahrscheinlichkeit für die Modelle, die kommen da drum herum. Aber hier in
der Mitte haben Sie also jetzt wieder Wahrscheinlichkeit Future gegeben Modell und dann hier die Wahrscheinlichkeit,
die Daten der Vergangenheit sind aus dem Modell heraus erzeugbar und dann eben Wahrscheinlichkeit
dafür, dass das Modell Sinn macht. So, jetzt tun wir erstmal diese Konjunkt, diese einzelnen
Wahrscheinlichkeiten hier wegdiskutieren. Wir sagen nämlich, wir haben nur einen Datensatz,
also muss ich mich nicht darüber unterhalten, ob der geht oder nicht geht, weil es gibt nur einen.
Also haben wir hier schon mal eine 1 stehen. Und die Wahrscheinlichkeit, dass die verschiedenen
Presenters
Zugänglich über
Offener Zugang
Dauer
00:47:05 Min
Aufnahmedatum
2020-10-27
Hochgeladen am
2020-10-27 17:37:10
Sprache
de-DE